Die Empfehlungsalgorithmen von Youtube verbreiten derzeit relativ wenige irreführende Inhalte, hat eine aktuelle Studie der Landesmedienanstalten ergeben. Ausgehend von Suchergebnissen zu „Covid-19-Pandemie“, „Klimawandel“ oder „Flüchtlinge“ würden Nutzer:innen überwiegend auf seriöse Nachrichtenquellen gelenkt, was sich auch in den späteren Empfehlungen neben den jeweiligen Videos widerspiegele.
Jedoch gewährt die Studie nur einen kleinen Einblick in die Funktionsweise der größten Videoplattform der Welt. Beispielsweise hat das eigens entwickelte Webtool personalisierte Empfehlungen nicht untersucht, die sich mit der Zeit an die Vorlieben der jeweiligen Nutzer:in anpassen. Rund 70 Prozent aller Videoaufrufe speisen sich aus dem Empfehlungssystem, sagte der Youtube-Produkt-Chef Neal Mohan vor drei Jahren.
„Es ist eine Daueraufgabe, die mit einer Studie nicht erledigt ist“, sagte Thorsten Schmiege von der Bayerischen Landeszentrale für neue Medien bei der Vorstellung. Es gebe „noch viel Luft nach oben“.
Trotzdem liefert die Untersuchung einige interessante Erkenntnisse: So macht der Algorithmus von Youtube öffentlich-rechtliche und etablierte Medienanbieter überdurchschnittlich oft sichtbar. Allerdings verengt das zwangsläufig die Vielfalt der Empfehlungen: Häufig werden dieselben Videos und Kanäle vorgeschlagen und neben Videos einzelner Kanäle werden fast ausschließlich Videos desselben Kanals angezeigt. Dies führe dazu, dass nur wenige thematisch passende Empfehlungen angezeigt werden, heißt es in der Studie.
Alles neu macht der Medienstaatsvertrag
Durchgeführt hat die Studie das Marktforschungsunternehmen Kantar mit der Technischen Hochschule Aachen im Auftrag mehrerer Landesmedienanstalten. Seit Ende letzten Jahres gilt der neue Medienstaatsvertrag, damit fällt den Anstalten unter anderem die Aufsicht über Videoplattformen wie Youtube zu.
Sie sollen darüber wachen, dass auf solchen Diensten die Meinungsvielfalt gewahrt bleibt. Zudem sollen sie sicherstellen, dass Online-Angebote, die sich einen journalistischen Anstrich verpassen, auch tatsächlich journalistische Sorgfaltspflichten einhalten. Das gilt auch für einzelne Youtube-Kanäle und andere Online-Medien.
Die Konsequenzen werden langsam sichtbar. Im Februar versandten einige Medienanstalten Hinweisschreiben an die Betreiber mehrerer Online-Postillen, die für das Verbreiten von Desinformation bekannt sind. Darunter sollen sich die Facebook-Seite des AfD-nahen „Deutschland-Kuriers“ befinden, das rechte Jugendportal Flinkfeed und das Angebot des inzwischen bei Youtube rausgeflogenen Ken Jebsen, auch als KenFM bekannt.
Rechte Desinformationsnetzwerke
Als rechtslastig stellten sich nun auch viele der desinformierenden Videos heraus, die sich die Youtube-Studie genauer angesehen hatte. Der Grundton sei dabei fast durchgängig, einen „alternativen“ Blickwinkel auf einen bestimmten Sachverhalt anzubieten.
Viele dieser Youtuber würden sich als „rebellische Kämpferinnen und Kämpfer“ sehen, die gegen eine vermeintliche „Meinungsdiktatur“ aufbegehrten – eine inzwischen gut eingeübte Pose reaktionärer Hetzer. Beliebtes Feindbild seien zudem öffentlich-rechtliche Medien sowie „Mainstream- oder Systemmedien“, die meist diskreditiert würden.
Obwohl insgesamt nur sechs Prozent der untersuchten empfohlenen Inhalte aus potenziell desinformativen Kanälen stammten, erhöhte sich die Wahrscheinlichkeit, in dieser Blase zu bleiben, wenn ein desinformatives Video als Startpunkt diente. Im Vergleich zu neutralen Startpunkten enthielten die analysierten Empfehlungsbäume deutlich mehr potenziell desinformative Inhalte.
Empfehlungsalgorithmus nur ein Puzzlestein
Verschwunden sind solche Inhalte nicht, im Gegenteil. Die Empfehlungen sind nicht alleiniger Treiber hoher Aufrufzahlen. Laut der Studie wurden drei der populärsten, potenziell desinformativen Videos insgesamt rund zehn Millionen Mal aufgerufen, bei der Untersuchung jedoch nur 24 Mal empfohlen. Offenbar wurden die Inhalte auf anderen Plattformen und Messenger-Diensten verbreitet, als Links unter anderen einschlägigen Videos manuell gepostet oder stammen aus direkten Zugriffen von Abonnent:innen.
Dass der Algorithmus von Youtube nur ein Faktor unter vielen ist, hatte die Forscherin Becca Lewis bereits 2018 in ihrer Studie zu rechten Influencer-Netzwerken festgestellt. Gut vernetzte Youtube-Persönlichkeiten verweisen gegenseitig auf sich, nutzen unterschiedlichste Kanäle, um auf sich aufmerksam zu machen – und speisen sich vor allem aus „parasozialen Beziehungen“ zu ihrer Community, die Intimität versprechen und das Publikum anfällig machen für reaktionäres Gedankengut.
Auch die Studie der Landesmedienanstalten verweist auf den Netzwerk-Effekt und betont, dass Desinformation nicht nur im Kontext einer einzigen Plattform betrachtet werden dürfe, „sondern es sich um ein transmediales Phänomen handelt, das viele unterschiedliche Medienplattformen und -kanäle betrifft“. Eine Regulierung von einzelnen Plattformen würde daher das Problem nicht lösen, sondern lediglich auf andere Plattformen und Kanäle verlagern.
Desinformation bleibt ein Problem, Intransparenz ebenso
Auch wenn Youtube schon seit einigen Jahren daran arbeitet, desinformative Inhalte auf der Plattform zu identifizieren und zu sperren, bleibt „Desinformation ein ernstzunehmendes Problem“, konstatiert die Studie. Dem Problem sei nur schwer automatisiert beizukommen, zudem mangle es der Plattform an Transparenz und Zugang für Forscher:innen.
Einiges daran könnte künftig das EU-Gesetz für digitale Dienste verbessern: Dieses sieht einen besseren Umgang mit Algorithmen vor und soll der Wissenschaft endlich Zutritt verschaffen zu den Blackboxen der großen sozialen Netzwerke.
Ein „Reverse Engineering“ der Algorithmen, wie es derzeit der Fall ist, könnte dann entfallen, heißt es in der Youtube-Studie: „Nur wenn die Wissenschaft Zugang zu aussagekräftigen Daten hat, aus denen sich repräsentativ großflächige Trends ablesen lassen, kann auch nachprüfbare Evidenz zu Empfehlungsalgorithmen zur Verfügung gestellt werden.“
Hallo! Ich möchte anmerken, dass tomas hier nicht darauf eingeht, dass das Wort „Desinformation“ ein sehr subjektiver Begriff ist. Es gibt Themen, die man sehr wohl darunter einwandfrei einordnen kann, aber es gibt viele Themen, die sich nicht in eine Schublade stecken lassen. Dass ein Algorythmus bestimmt, was desinformativ ist und was nicht, halte ich genau so bedenklich, wie, wenn es ein Mensch tun würde. Selbst eine Maschine „denkt“ nur das, was Menschen ihr eingeben. Was den Menschen vor Desinformationn schützen würde, wäre, das von Gott gegebene Gehirn zu benutzen. Ich möchte mir nicht sagen lassen, was für mich gute und was für mich Desinformation ist. Der Artikel zeigt mir, dass der sog. Mainstream den Menschen Meinungen vorgibt, was einem Grundsatz fast aller Verfassungen widerspricht. Danke für diesen Artikel.
D. Karner, ich halte Ihre Ergänzung für berechtigt, teile sie aber nur bedingt. „Desinformation bleibt weiter ein Problem“ beziehe ich darauf, dass es sie gibt, auch wenn die Definition schwierig ist. Aber darüber kann man diskutieren.
Mich treibt die Sorge um, dass Youtube-Nutzer ggfs. nicht erkennen, wie sie über ihren Einstieg immer mehr Videos zu einem Thema oder von einem Kanal angeboten bekommen und so beeinflusst werden. Das macht der Algorithmus; sozusagen als Angebot, personalisierte Empfehlungen mit der Zeit an die Vorlieben der jeweiligen Nutzer:in anzupassen, wie Neal Mohan sagte. Sie merken das leicht, wenn Sie Musiktitel von Ihren Lieblingsinterpreten aufrufen und die Vorschläge von Youtube sich dem immer mehr anpassen.
Ob Desinformation oder Empfehlungsalgorithmus – es müssen „Grundgesetzkonforme Regeln“ geschaffen werden, was nicht im Netz verbreitet werden darf. Ich sehe da nicht die Gefahr, dass dann entschieden wird, was ich zu denken habe! Ich glaube an unsere Demokratie – heute auch in forum demokratie phoenix unter dem Titel: „Die Demokratie im Privaten: Wie demokratisch ist die Welt der Social Media? “ diskutiert.
Und da, wo ich zusätzliche Orientierung brauche, ist NETZPOLITIK.ORG eine sehr gute Hilfe.